Telegram Group & Telegram Channel
👍 Инструмент недели: `torchao` — лёгкое квантование и оптимизация PyTorch-моделей

`torchao` — это новая экспериментальная библиотека от команды PyTorch, разработанная для простого применения квантования, разреживания и других оптимизаций к нейросетевым моделям.

Основные возможности:
📍 `autoquant` — автоматическое квантование модели по слоям, без ручной настройки
📍 поддержка INT8 квантования, совместимого с torch.ao.quantization
📍 интеграция с PyTorch 2.x (использует torch.compile, dynamo, inductor)
📍 поддержка разреживания (sparsity), структурных трансформаций
📍 работа с предварительно обученными моделями — ResNet, MobileNet, Llama и др
📍 возможность применения на CPU/GPU, включая ускорение inference в ONNX и TorchScript

Если вы хотите:
📍 ускорить инференс без потери качества
📍 уменьшить размер модели для edge-устройств или мобильных приложений
📍 минимизировать latency для real-time задач
📍 подготовить модели к выводу на продакшн с минимальным инженерным оверхедом

то torchao может стать отличной альтернативой более сложным инструментам квантования.

Пример использования:
from torchao.quant import autoquant

# Загружаем обученную модель
model = torchvision.models.resnet18(pretrained=True).eval()

# Применяем автоматическое квантование
model = autoquant(model)


🔴 Подробнее на GitHub: https://clc.to/XUsE5g

Библиотека дата-сайентиста #буст
Please open Telegram to view this post
VIEW IN TELEGRAM



tg-me.com/dsproglib/6486
Create:
Last Update:

👍 Инструмент недели: `torchao` — лёгкое квантование и оптимизация PyTorch-моделей

`torchao` — это новая экспериментальная библиотека от команды PyTorch, разработанная для простого применения квантования, разреживания и других оптимизаций к нейросетевым моделям.

Основные возможности:
📍 `autoquant` — автоматическое квантование модели по слоям, без ручной настройки
📍 поддержка INT8 квантования, совместимого с torch.ao.quantization
📍 интеграция с PyTorch 2.x (использует torch.compile, dynamo, inductor)
📍 поддержка разреживания (sparsity), структурных трансформаций
📍 работа с предварительно обученными моделями — ResNet, MobileNet, Llama и др
📍 возможность применения на CPU/GPU, включая ускорение inference в ONNX и TorchScript

Если вы хотите:
📍 ускорить инференс без потери качества
📍 уменьшить размер модели для edge-устройств или мобильных приложений
📍 минимизировать latency для real-time задач
📍 подготовить модели к выводу на продакшн с минимальным инженерным оверхедом

то torchao может стать отличной альтернативой более сложным инструментам квантования.

Пример использования:

from torchao.quant import autoquant

# Загружаем обученную модель
model = torchvision.models.resnet18(pretrained=True).eval()

# Применяем автоматическое квантование
model = autoquant(model)


🔴 Подробнее на GitHub: https://clc.to/XUsE5g

Библиотека дата-сайентиста #буст

BY Библиотека дата-сайентиста | Data Science, Machine learning, анализ данных, машинное обучение




Share with your friend now:
tg-me.com/dsproglib/6486

View MORE
Open in Telegram


Библиотека data scientist’а | Data Science Machine learning анализ данных машинное обучение Telegram | DID YOU KNOW?

Date: |

A project of our size needs at least a few hundred million dollars per year to keep going,” Mr. Durov wrote in his public channel on Telegram late last year. “While doing that, we will remain independent and stay true to our values, redefining how a tech company should operate.

Start with a fresh view of investing strategy. The combination of risks and fads this quarter looks to be topping. That means the future is ready to move in.Likely, there will not be a wholesale shift. Company actions will aim to benefit from economic growth, inflationary pressures and a return of market-determined interest rates. In turn, all of that should drive the stock market and investment returns higher.

Библиотека data scientist’а | Data Science Machine learning анализ данных машинное обучение from hk


Telegram Библиотека дата-сайентиста | Data Science, Machine learning, анализ данных, машинное обучение
FROM USA